Độ co khô là gì? Các công bố khoa học về Độ co khô
Độ co khô là khái niệm trong ngành dệt may, chỉ sự biến đổi kích thước của vật liệu sau giặt và sấy khô. Độ co khô gây ra bởi sự giãn nở và co lại của sợi dệt do nước và nhiệt độ. Các yếu tố ảnh hưởng bao gồm loại sợi, cấu trúc dệt, và phương pháp giặt sấy. Đo lường độ co khô bằng cách so sánh kích thước trước và sau giặt. Thông số này quan trọng trong thiết kế, sản xuất và giúp người tiêu dùng chọn sản phẩm phù hợp, đảm bảo chất lượng sau giặt và sử dụng. Quản lý độ co khô là phần thiết yếu trong quy trình sản xuất dệt may.
Độ Co Khô: Khái Niệm Và Ứng Dụng
Độ co khô là một khái niệm thường được sử dụng trong ngành công nghiệp dệt may để chỉ mức độ biến đổi kích thước của một vật liệu sau khi giặt và làm khô. Đây là một thông số quan trọng giúp nhà sản xuất và người tiêu dùng đảm bảo chất lượng và phù hợp của sản phẩm dệt may.
Nguyên Nhân Gây Ra Độ Co Khô
Độ co khô chủ yếu xuất phát từ sự giãn nở và co lại của sợi dệt khi tiếp xúc với nước và nhiệt độ. Khi giặt, nước làm giãn nở các sợi, và khi khô, các sợi này co lại, dẫn đến thay đổi kích thước tổng thể của sản phẩm. Một số yếu tố ảnh hưởng đến độ co khô bao gồm:
- Loại sợi dệt: Các loại sợi khác nhau, như cotton, polyester, hoặc len, có phản ứng khác nhau với nước và nhiệt độ.
- Cấu trúc dệt: Cách mà sợi được dệt hoặc đan cũng ảnh hưởng đến mức độ co khô.
- Phương pháp giặt và sấy: Nhiệt độ và cách thức giặt (thủ công hay bằng máy) có thể làm tăng hoặc giảm độ co.
Cách Đo Lường Độ Co Khô
Để xác định độ co khô, các nhà nghiên cứu thường sử dụng phương pháp giặt thử nghiệm tiêu chuẩn hóa. Trong quy trình này, mẫu vải được đo kích thước trước và sau khi giặt khô. Tỷ lệ phần trăm co khô được tính dựa trên sự chênh lệch kích thước trước và sau:
Độ co khô (%) = [(Kích thước ban đầu - Kích thước sau giặt) / Kích thước ban đầu] x 100%
Các Ứng Dụng Thực Tế
Hiểu biết về độ co khô có ý nghĩa quan trọng trong việc sản xuất và tiêu thụ sản phẩm dệt may. Trong sản xuất, các nhà thiết kế và kỹ sư dệt may sử dụng thông số này để xác định kích thước cắt may chuẩn nhằm bù trừ độ co trong quá trình giặt sau này. Đối với người tiêu dùng, thông tin về độ co khô giúp họ lựa chọn sản phẩm không những phù hợp về kiểu dáng mà còn đạt tiêu chuẩn về chất lượng sau giặt và sử dụng.
Kết Luận
Độ co khô là một yếu tố cần được xem xét trong cả quá trình sản xuất và tiêu dùng hàng dệt may. Việc quản lý tốt độ co khô giúp đảm bảo chất lượng sản phẩm và tạo ra sự hài lòng cho người tiêu dùng. Hơn nữa, nó còn là một phần quan trọng của quản lý chất lượng trong các quy trình sản xuất sản phẩm dệt may.
Danh sách công bố khoa học về chủ đề "độ co khô":
Một phương pháp ước tính hàm lượng cholesterol trong phần lipoprotein có tỷ trọng thấp của huyết thanh (Sf0-20) được trình bày. Phương pháp này bao gồm các phép đo nồng độ cholesterol toàn phần trong huyết tương khi đói, triglyceride và cholesterol lipoprotein có tỷ trọng cao, không yêu cầu sử dụng thiết bị siêu ly tâm chuẩn bị. So sánh quy trình được đề xuất này với quy trình trực tiếp hơn, trong đó thiết bị siêu ly tâm được sử dụng, đã cho thấy các hệ số tương quan từ 0,94 đến 0,99, tùy thuộc vào nhóm bệnh nhân được so sánh.
Một phương trình mới và tương đối đơn giản cho đường cong áp suất chứa nước trong đất, θ(
Chúng tôi xem xét vấn đề so sánh các mô hình phân cấp phức tạp trong đó số lượng tham số không được xác định rõ. Sử dụng lập luận thông tin lý thuyết, chúng tôi đưa ra một thước đo pD cho số lượng tham số hiệu quả trong một mô hình như sự khác biệt giữa trung bình hậu nghiệm của độ lệch và độ lệch tại giá trị trung bình hậu nghiệm của các tham số quan trọng. Nói chung pD tương quan xấp xỉ với vết của tích giữa thông tin Fisher và hiệp phương sai hậu nghiệm, trong các mô hình chuẩn là vết của ma trận ‘hat’ chiếu các quan sát lên giá trị được khớp. Các tính chất của nó trong các họ số mũ được khảo sát. Trung bình hậu nghiệm của độ lệch được đề xuất như một biện pháp đo lường Bayesian về sự phù hợp hoặc đủ, và sự đóng góp của các quan sát riêng lẻ đến sự phù hợp và độ phức tạp có thể dẫn đến một biểu đồ chuẩn đoán của phần dư độ lệch so với đòn bẩy. Việc thêm pD vào trung bình hậu nghiệm độ lệch tạo ra tiêu chuẩn thông tin độ lệch để so sánh các mô hình, liên quan đến các tiêu chuẩn thông tin khác và có một sự biện hộ xấp xỉ quyết định lý thuyết. Quy trình được minh họa trong một số ví dụ, và các so sánh được thực hiện với các đề xuất Bayesian và cổ điển khác. Suốt cả quá trình, nhấn mạnh rằng lượng cần thiết để tính toán trong phân tích Markov chain Monte Carlo là không đáng kể.
Bệnh gan nhiễm mỡ không do rượu (NAFLD) là nguyên nhân chính gây ra bệnh gan trên toàn thế giới. Chúng tôi đã ước lượng tỉ lệ hiện mắc, phát sinh, tiến triển và kết quả của NAFLD và viêm gan nhiễm mỡ không do rượu (NASH) trên toàn cầu. PubMed/MEDLINE đã được tìm kiếm từ năm 1989 đến 2015 với các thuật ngữ liên quan đến dịch tễ học và tiến triển của NAFLD. Các trường hợp loại trừ bao gồm các nhóm bị lựa chọn (các nghiên cứu chỉ bao gồm người béo phì hoặc tiểu đường hoặc trẻ em) và không có dữ liệu về tiêu thụ rượu hoặc các bệnh gan khác. Tỉ lệ phát sinh của ung thư biểu mô tế bào gan (HCC), xơ gan, tử vong chung và tử vong liên quan đến gan đều được xác định. NASH yêu cầu chẩn đoán bằng mô học. Tất cả các nghiên cứu đã được ba nhà điều tra độc lập rà soát. Phân tích được phân tầng theo khu vực, kỹ thuật chẩn đoán, chỉ định sinh thiết và dân số nghiên cứu. Chúng tôi sử dụng mô hình các tác động ngẫu nhiên để cung cấp các ước lượng điểm (khoảng tin cậy 95% [CI]) về tỉ lệ hiện mắc, phát sinh, tỉ lệ tử vong và tỉ lệ phát sinh, đồng thời mối liên hệ phân tích theo nhóm con để giải thích dị biệt. Trong số 729 nghiên cứu, có 86 nghiên cứu được bao gồm với cỡ mẫu 8.515.431 từ 22 quốc gia. Tỉ lệ hiện mắc NAFLD toàn cầu là 25,24% (CI 95%: 22,10-28,65), với tỉ lệ cao nhất ở Trung Đông và Nam Mỹ và thấp nhất ở Châu Phi. Các bệnh đồng mắc chuyển hóa liên quan đến NAFLD bao gồm béo phì (51,34%; CI 95%: 41,38-61,20), đái tháo đường loại 2 (22,51%; CI 95%: 17,92-27,89), rối loạn mỡ máu (69,16%; CI 95%: 49,91-83,46), tăng huyết áp (39,34%; CI 95%: 33,15-45,88), và hội chứng chuyển hóa (42,54%; CI 95%: 30,06-56,05). Tỉ lệ tiến triển xơ hóa và tốc độ tiến triển trung bình hàng năm trong NASH lần lượt là 40,76% (CI 95%: 34,69-47,13) và 0,09 (CI 95%: 0,06-0,12). Tỉ lệ phát sinh HCC trong số bệnh nhân NAFLD là 0,44 trên 1.000 người-năm (phạm vi, 0,29-0,66). Tử vong do gan và tử vong chung trong NAFLD và NASH lần lượt là 0,77 trên 1.000 (phạm vi, 0,33-1,77) và 11,77 trên 1.000 người-năm (phạm vi, 7,10-19,53) và 15,44 trên 1.000 (phạm vi, 11,72-20,34) và 25,56 trên 1.000 người-năm (phạm vi, 6,29-103,80). Tỉ lệ rủi ro phát sinh đối với tử vong do gan và tử vong chung cho NAFLD lần lượt là 1,94 (phạm vi, 1,28-2,92) và 1,05 (phạm vi, 0,70-1,56).
Ung thư vú là loại ung thư phổ biến nhất ở phụ nữ Hoa Kỳ, gây ra hơn 40.000 cái chết mỗi năm. Các khối u vú này bao gồm những dân số tế bào ung thư vú có nhiều kiểu hình đa dạng. Sử dụng mô hình trong đó các tế bào ung thư vú người được nuôi cấy trong chuột suy giảm miễn dịch, chúng tôi nhận thấy rằng chỉ một số ít tế bào ung thư vú có khả năng hình thành khối u mới. Chúng tôi đã phân biệt được giữa các tế bào ung thư có khả năng khởi xướng u (gây u) với các tế bào ung thư không gây u dựa vào biểu hiện dấu mốc trên bề mặt tế bào. Chúng tôi đã tiên đoán nhận diện và cô lập các tế bào gây u như là CD44 + CD24 −/thấp Dòng − trong tám trên chín bệnh nhân. Chỉ cần 100 tế bào có kiểu hình này cũng đã có thể hình thành khối u ở chuột, trong khi hàng chục nghìn tế bào có kiểu hình khác không thể hình thành khối u. Quần thể gây u có khả năng được nối nhau liên tục: mỗi lần các tế bào trong quần thể này tạo ra khối u mới chứa thêm các tế bào gây u CD44 + CD24 −/thấp Dòng −, cũng như các quần thể hỗn hợp có nhiều kiểu hình đa dạng của các tế bào không gây u có mặt trong khối u ban đầu. Khả năng nhận diện tiên đoán các tế bào ung thư có khả năng gây u sẽ giúp việc làm sáng tỏ các con đường điều tiết sự phát triển và sống sót của chúng. Hơn nữa, bởi vì những tế bào này thúc đẩy sự phát triển khối u, các chiến lược nhằm vào quần thể này có thể dẫn tới các liệu pháp hiệu quả hơn.
Allele apolipoprotein E loại 4 (
Các chấm lượng tử bán dẫn phát quang động cao (zinc sulfide–bọc kẽm selenide) đã được liên kết cộng hóa trị với các phân tử sinh học để sử dụng trong phát hiện sinh học siêu nhạy. So với các thuốc nhuộm hữu cơ như rhodamine, loại chất phát quang này sáng hơn 20 lần, ổn định chống lại hiện tượng phai màu quang 100 lần và có độ rộng đường quang phổ chỉ bằng một phần ba. Các chất liên hợp kích thước nanometers này có khả năng hòa tan trong nước và tương thích sinh học. Các chấm lượng tử được gắn nhãn với protein transferrin đã trải qua quá trình nhập bào được điều tiết bởi thụ thể trong các tế bào HeLa nuôi cấy, và những chấm lượng tử đó được gắn với các immunomolecules nhận biết các kháng thể hoặc kháng nguyên cụ thể.
Các phát triển trong các nghiên cứu liên kết toàn genome và sự gia tăng khả năng truy cập dữ liệu tổng hợp liên kết di truyền đã làm cho việc áp dụng ngẫu nhiên hóa Mendelian trở nên tương đối đơn giản. Tuy nhiên, việc thu được các kết quả đáng tin cậy từ một cuộc điều tra ngẫu nhiên hóa Mendelian vẫn là một vấn đề, vì phương pháp trọng số nghịch biến cổ điển chỉ cho ra các ước lượng nhất quán nếu tất cả các biến thể di truyền trong phân tích đều là các biến số công cụ hợp lệ. Chúng tôi trình bày một ước lượng trung vị có trọng số mới để kết hợp dữ liệu về nhiều biến thể di truyền thành một ước lượng nguyên nhân duy nhất. Ước lượng này là nhất quán ngay cả khi tới 50% thông tin đến từ các biến số công cụ không hợp lệ. Trong một phân tích mô phỏng, nó cho thấy có tỷ lệ lỗi loại 1 mẫu hữu hạn tốt hơn so với phương pháp trọng số nghịch biến, và bổ sung cho phương pháp hồi quy MR‐Egger (ngẫu nhiên hóa Mendelian‐Egger) được đề xuất gần đây. Trong các phân tích về các tác động nguyên nhân của cholesterol lipoprotein mật độ thấp và cholesterol lipoprotein mật độ cao đối với nguy cơ bệnh động mạch vành, phương pháp trọng số nghịch biến cho thấy một tác động nguyên nhân của cả hai phân đoạn lipid, trong khi các phương pháp hồi quy trung vị có trọng số và MR‐Egger cho thấy một tác động null của cholesterol lipoprotein mật độ cao tương ứng với bằng chứng thực nghiệm. Cả phương pháp dựa trên trung vị và hồi quy MR‐Egger nên được xem xét như các phân tích nhạy cảm cho các cuộc điều tra ngẫu nhiên hóa Mendelian với nhiều biến thể di truyền.
Bài báo này trình bày một lý thuyết về các khía cạnh có thể mang tính phổ quát trong nội dung của các giá trị con người. Mười loại giá trị được phân biệt theo các mục tiêu động lực. Lý thuyết này cũng đề xuất một cấu trúc các mối quan hệ giữa các loại giá trị, dựa trên những xung đột và sự tương thích xảy ra khi theo đuổi chúng. Cấu trúc này cho phép chúng ta liên hệ các hệ thống ưu tiên giá trị, như một toàn thể tích hợp, với các biến số khác. Một công cụ đo lường giá trị mới, dựa trên lý thuyết này và phù hợp cho nghiên cứu qua các nền văn hóa, được mô tả. Các bằng chứng liên quan đến việc đánh giá lý thuyết, từ 97 mẫu ở 44 quốc gia, được tóm tắt. Quan hệ của cách tiếp cận này với công trình của Rokeach về giá trị và các lý thuyết cũng như nghiên cứu khác về các khía cạnh giá trị được thảo luận. Việc áp dụng phương pháp này vào các vấn đề xã hội được minh họa trong các lĩnh vực chính trị và quan hệ giữa các nhóm.
Khái niệm metacommunity là một cách quan trọng để suy nghĩ về các liên kết giữa các quy mô không gian khác nhau trong sinh thái học. Ở đây, chúng tôi xem xét những hiểu biết hiện tại về khái niệm này. Đầu tiên, chúng tôi nghiên cứu các vấn đề liên quan đến định nghĩa của nó như một tập hợp các cộng đồng địa phương được liên kết bởi sự phân tán của nhiều loài có khả năng tương tác với nhau. Sau đó, chúng tôi xác định bốn mô hình cho metacommunity: cái nhìn động mảnh ghép, cái nhìn phân loại loài, cái nhìn hiệu ứng đại trà và cái nhìn trung lập, mỗi cái đều nhấn mạnh các quá trình khác nhau có thể quan trọng trong metacommunity. Những mô hình này có lịch sử tri thức khá khác nhau và chúng tôi thảo luận về các yếu tố liên quan đến sự tổng hợp tiềm năng trong tương lai của chúng. Chúng tôi sau đó sử dụng khuôn khổ này để thảo luận về lý do khái niệm này hữu ích trong việc điều chỉnh những suy nghĩ sinh thái hiện có và minh họa điều này bằng một số ví dụ lý thuyết và thực nghiệm. Khi các nhà sinh thái cố gắng hiểu các cơ chế ngày càng phức tạp và nỗ lực làm việc trên nhiều quy mô tổ chức không gian-thời gian, những khái niệm như metacommunity có thể cung cấp những hiểu biết quan trọng mà thường trái ngược với những gì có thể đạt được từ các phương pháp thông thường hơn chỉ dựa trên các cộng đồng địa phương.
- 1
- 2
- 3
- 4
- 5
- 6
- 10